Loading...

Künstliche Intelligenz, platonistisch gedacht

Michael Seibel • Ein Gedankenexperiment   (Last Update: 05.12.2019)

Die typische Forschungssituation, vor der Künstliche Intelligenz (KI) und letztlich jede Forschung an Massendaten steht, ist die Suche nach verborgenen Mustern.

In hinreichend umfangreichen Datenmassen lassen sich praktisch beliebig viele Muster entdecken. Beides, Muster zu entdecken oder Muster in Material einzuzeichnen, ist letztlich nichts weiter als ein ästhetischer Akt. Mit der Entdeckung eines Musters ist also noch nichts darüber gesagt, ob das Muster irgend einen Sinn hat.

Theoretiker der KI neigen zu der Unterstellung, dass bereits die Entdeckung eines Musters Daten in sinnvolle Informationen verwandelt und dadurch unser empirisches Wissen erweitert. Muster und selbst Korrelationen von Mustern sind jedoch keineswegs per se sinnhaltig.

Das folgende Gedankenexperiment versucht plausibel zu machen, dass die Entdeckung eines Musters nur dann unser empirisches Wissen erweitert, wenn sie auf einen im jeweiligen Untersuchungsgegenstand bereits realisierten Sinn trifft, und warum das gar nicht anders sein kann.

Sinn steckt also bereits in den Dingen. Für viele Ohren klingt das heute seltsam. Sinn steckt zugleich als ein apriori und als ein Teil ihrer empirischen Beschaffenheit in den Dingen. Ich meine, dass es gerade jetzt, da wir Methoden der KI überall hin ausrollen, dringend naheliegt, nochmals eine platonistische Position dem Wissen gegenüber einzunehmen. Und das folgende Gedankenexperiment soll zeigen, warum.



Das Gedankenexperiment

 

Man kann sich ein Buch vorstellen, das aus knapp 1,739 Mio. Zeichen besteht, was für einen veritablen Roman keine ungewöhnliche Länge ist.1 Man kann sich weiter vorstellen, dass es so viele Varianten dieses Buches gibt, wie es mögliche Zeichenkombinationen innerhalb der Zeichenkette gibt. Sehen wir davon ab, dass es höchst unterschiedliche Alphabete gibt. Es seien nur die 26 Grund-Buchstaben unseres Alphabets zugelassen und nicht gleich die 256 Zeichen eines 8-Bit-Zeichensatzes wie ISO 8859, mit dem unsere Computer arbeiten. Es wird also ein Buch vorkommen, das ausschließlich aus einer langen Reihe von 1,739 Mio. As besteht und eins aus einer ebenso langen Reihe von Zs. Eine Variante dieses Buchs wird Dostojewskis Roman 'der Idiot' sein, der aus ziemlich genau so vielen Zeichen besteht. Andere Varianten werden sämtliche Texte sein, die jemals mit der entsprechenden Anzahl an Zeichen ausgekommen sind. Romane, die mit weniger Zeichen ausgekommen sind wie etwa Goethes 'Wahlverwandschaften', werden gerahmt von zumeist sinnlosem Text sogar milliardenfach in diesem Bücherberg vertreten sein. Nicht nur das. Es wären sogar sämtliche Romane in diesem Haufen enthalten, die mit dem entsprechenden Zeichenvorrat jemals bis in die fernste Zukunft geschrieben werden können. Wir dürften uns also auf einen Blick in die fernste Zukunft freuen, wenn wir nur in der Lage wären, diesen schier unendlichen Bücherberg jemals zu sichten. Man sieht allein schon daran, dass irgendetwas an der Idee eines solchen Haufen nicht stimmen kann, denn sämtlich schriftstellerischen Ergebnisse der vorgestellten Länge, die es jemals geben wird, kommen darin gleichzeitig, vor. Wir befinden uns damit wieder einmal am vorgestellten 'Ende der Geschichte'. Als Philosophen nicht zum ersten mal. Das Diachrone ist synchronisiert.

 

Die Sichtung des Bücherbergs allerdings ist unmöglich, denn die Anzahl der möglichen Varianten dieses Buches ist bei weitem größer als die Anzahl der Atome im Universum, die mit bis zu 1089 angegeben wird. Bei den Varianten hätten wir es aber mit 26 1,739Mio. zu tun.

Selbst wenn man sich, statt sich auf Zeichenketten von Romanlänge einzulassen, auf 140 Zeichen lange Twitter-Nachrichten beschränken würde, käme man auf 26 140 verschiedene Zeichenketten. Selbst die Zahl der möglichen Twitter-Nachrichten liegt unerreichbar weit über der Zahl der Atome im Universum. Wenn der vorgestellte Bücherberg unser einziger Zugang zu Dostojewskis 'der Idiot' wäre, hätte bis heute noch kein einziger Mensch Dostojewskis Roman gelesen.

 

Dieses Gedankenexperiment zwingt uns allerdings dazu, Daten und Information, den Kopiervorgang und die Entdeckung von Sinn in den Kopien klar voneinander zu unterscheiden oder anders gesagt, es erlaubt Aufzeichnung und Retrival zu unterscheiden.

 

Heute wird allerorten kolportiert, dass es die geradezu grenzenlosen Möglichkeiten von Aufzeichnung und Retrival sind, die die Digitalisierung des Lebens so mächtig machen. Dagegen ist zu sagen: Wären sie wirklich grenzenlos, dann wären sie völlig machtlos. Die Frage ist also, was sind die Grenzen und wer oder was legt sie fest und verfügt darüber.

 

Aber es stimmt natürlich. Beides, Aufzeichnung und Retrival, hat sich seit den 70er Jahren des letzten Jahrhunderts rasant weiterentwickelt. Einem Mönch des Mittelalters wäre es völlig unmöglich gewesen, eine größere Anzahl von Buchexemplaren überhaupt zu erzeugen. Der Buchdruck verbilligte bekanntlich die Kopierkosten dramatisch. Um wie viel mehr die Computerisierung mit Massenspeichermedien die Aufzeichnung verbilligt und die Kopierkosten reduziert hat, macht die Überlegung klar, dass es auch dem höchstentwickelten nicht digitalen Druck unmöglich gewesen wäre, auch nur einen nennenswerten Bruchteil der oben beschriebenen Varianten zu kopieren. Natürlich ist damit auch die neueste Computertechnik grundsätzlich überfordert, aber die variablen Kosten des Kopierens sind derart gesunken, dass es heute für viele Aufgaben Sinn macht, Daten zuerst kontinuierlich aufzuzeichnen und erst später zu prüfen, ob sie irgendeinen Sinn oder zumindest irgendeinen Informationswert haben.

 

Wenn jemand einen Text liest, erwartet er Sinn. Nicht erst der, der ihn liest, sondern bereits der, der ihn schreibt. Digitale Daten sind demgegenüber zunächst nicht einmal lesbar. Es bedarf bekanntlich einer ganzen Reihe von Dekodierungsschritten, der Übertragung von digitalen Zeichen in ein lesbares Alphabet, einer Indexierung der Inhalte, um Textpassagen verschiedenen Schlagworten zuzuordnen. Bei steigender Leistungsfähigkeit der Hardware sind Volltextrecherchen möglich. Das Retrival ist also wie die Aufzeichnung einer ständigen Entwicklung zugänglich. Aber bis hierhin wäre mit dem oben beschriebenen Variantenhaufen immer noch nicht viel anzufangen. Eine Volltextrecherche auf ein bestimmtes Suchwort, sagen wir 'Myschkin', würde natürlich Stellen aus Dostojewskis Roman nachweisen können, immer vorausgesetzt, dass der Roman in der untersuchten Teilmenge der Variantengesamtheit enthalten wäre, einer Gesamtheit, die wie gesagt den gesamten Kosmos verstopft und die auf jeden Fall zu groß wäre, um jemals in einer Art Brute-Force-Angriff auf jede denkbare Literatur jemals auch nur ansatzweise vollständig durchforstet zu werden. Eine Recherche auf die Zeichenfolge 'Myschkin' würde aber vor allem auch unzählig viele Texte entdecken, die 'Myschkin' enthalten, und dennoch nicht zu Dostojewskis Roman gehören.

Wäre ein 8-Bit Zeichensatz mit 256 möglichen Zeichen zur Kodierung verwendet worden, dann gäbe es 2568 unterschiedliche mögliche (sinnvolle und unsinnige) Worte aus 8 Zeichen. Würde man sich auch hier auf die 26 Grundbuchstaben der deutschen Sprache beschränken, wären es lediglich 268. Es ist klar, dass in beiden Fällen 'Myschkin' in einer Teilmenge der Variantengesamtheit, von der allerdings jedes Exemplar 1,739 Mio. Zeichen lang wäre, praktisch beliebig oft vorkommt. Also schlechte Karten, auf diese Art Dostojewskis Roman zu finden. Und falls das Suchword 'Bin Laden' hieße und ein Geheimdienst die Suchanfrage stellte, wären die Trefferchancen auch nicht besser. Drehen wir die Schraube noch eine weitere Windung tiefer ins Mark des Unwahrscheinlichen: Was wäre, wenn sämtliche Versionen unseres Megatextes nicht im Klartext, sondern verschlüsselt vorlägen? Wahrscheinlich würde sich auch dann irgendwo im imaginären Haufen Dostojewskis Roman befinden, jedoch als Verschlüsselung von völlig asignifikantem Blödsinn. Also bitte nicht entschlüsseln, sondern lesen!

 

Das verdeutlicht folgendes: Um mit den heutigen Möglichkeiten, digitale Daten zu erfassen, überhaupt vollumfänglich etwas anfangen zu können, bedarf es entsprechend entwickelter Retrival-Möglichkeiten. Nur was heißt jetzt 'entsprechend entwickelt'? Drei Dinge müssten neben dem Zugang zum Rohdatenmaterial dabei mindestens ebenfalls gewährleistet sein, ein unbehinderter Zugriff auf Vergleichstexte, an die neu zu interpretierende Daten anschlussfähig sind. (So wenig das Suchword 'Bin Laden' allein nützt, so aussagekräftig wird es, wenn es sich mit bereits bekannten Informationen verknüpfen lässt, etwa mit Ortskoordinaten, Personen- oder Verbindungsdaten.) Es bedarf heute ferner mächtiger Möglichkeiten der Mustererkennung, um überhaupt Codeblöcke im Rohmaterial zu identifizieren, die es wert sind, auf ihre Anschlussfähigkeit, also auf möglichen Sinn hin geprüft zu werden und es bedarf der freien Gestaltbarkeit von Suchabfragen, von sog. Queries. um eine solche Prüfung vornehmen zu können.

 

Der Hauptunterschied zum klassischen Weg, mittels Lektüre oder Messung an neue Informationen zu kommen, dürfte in der praktisch kompletten Ausschaltung der menschlichen Wahrnehmung bei der Informationsgewinnung bestehen. Sollen z.B. alle Personen identifiziert werden, die einen Flughafen betreten, kann man sich zur Not noch eine mit Personal besetzte Eingangsschranke, eine Art Zollhäuschen vorstellen, wie wir das heute bei der Gepäckkontrolle gewohnt sind, die jeden einzelnen anhand seiner Papiere identifiziert. Geht es aber darum, einen zentralen Platz im Zentrum einer Großstadt zu überwachen, würde bei dieser Art von Kontrolle sehr schnell der Verkehr zusammenbrechen. Selbst wenn das nicht der Fall wäre, wäre der Personalaufwand nicht zu leisten. Wie wir wissen, werden heute jedoch nicht nur einzelne Plätze, sondern komplette Innenstädte viodeoüberwacht, heute noch weitgehend ohne automatische Personenerkennung.

 

Aber längst trägt heute fast jeder seine persönliche Überwachungsdevice in Form seines Smartphones mit sich herum, das anzeigt, wann er sich wo befindet, mit wem er wann telefoniert und in dem vielfältige Sensorik verbaut ist von Mikrophon und Kamera über ein Gyroskop (das die räumliche Ausrichtung des Handys erkennt), über Bewegungssensor, Näherungssensor, GPS-Sensor, Umgebungslichtsensor, Fingerabdrucksensor, Pulsmesser, Barometer oder ein Hallsensor, der elektromagnetische Felder messen kann.

 

Damit soll zunächst nicht gesagt sein, dass die inzwischen bestehende Palette an Überwachungsmöglichkeiten ungut und Überwachung grundsätzlich illegitim ist. Überwachung ist nicht per se kritikwürdig. Ein Patient auf einer Intensivstation ist beispielsweise fraglos auf lückenlose Überwachung seiner Vitalfunktionen angewiesen. Das würde niemand kritisieren wollen. In seinem Sinn ungut wäre, wenn er nicht überwacht würde.

 

Alarm

 

Den Unterschied macht allerdings aus, dass das gesamte sensorische Instrumentarium nichts mehr mit menschlichen Wahrnehmungen zu tun hat. Niemand schaut mehr auf die einzelnen Messungen, bevor nicht doch letztendlich irgendwo ein Alarm in Gang gesetzt wird, oft allerdings erst, nachdem bereits technische Reaktionen auf die Messergebnissse ausgelöst wurden. Der Mensch kommt post festum ins Spiel, nach dem schon viel gelaufen ist.

 

Aber immer steht am Ende des wesentlich nicht von Menschen abgearbeiteten Retrival ein Alarm.

Ursprünglich war der Alarm ein Ereignis, das durch die konkrete Gefahrenwahrnehmung eines oder mehrerer Menschen ausgelöst wurde. Es war eine Sache der Wahrnehmung. Später kamen bisweilen etwa beim Militär taktische Gründe dazu, warum der Alarmzustand ausgerufen wurde. In straff organisierten Institutionen wie etwa einem Kraftwerk lassen sich die Menschen seit langem von Maschinen alarmieren. Der Alarmzustand ist hier die Ausnahme, die dazu aufruft, umgehend eine Gefahrenquelle zu beseitigen. Menschen in unklaren, relativ informellen Sozialgebilden dagegen, die nicht wirklich viel von den Regeln der sie umgebenden Institutionen wissen, also etwa so wenig wie ein normaler Stromverbraucher von den Gegebenheiten in dem Kraftwerk, das ihn beliefert, haben es ständig mit Alarmzuständen zu tun, die nicht von ihrer eigenen Wahrnehmung ausgelöst sind, sondern von Ketten digitaler Verarbeitungen, die sie jedoch mit ihren eigenen Wahrnehmungen irgendwie zur Deckung bringen müssen. Wie anders sollte sich das hinbekommen lassen als dadurch, dass die Daten, die man aus der Umgebung, etwa dem Netz erhält, durch den mit den Daten verbundenen Alarm zu Informationen geadelt, wieder ins soziale Netz zurückgemeldet werden. Technisch gesehen ist das nichts anderes als ein Verstärker. Der Alarmzustand wird dadurch für die meisten zum Normalzustand.

 

Zu fragen ist, ob sich die Regeln, die innerhalb von Gruppen gelten, seien die Gruppen formell oder verfasst oder nicht, aus den Fragen ablesen lassen, die sie an Daten stellen und aus dem Alarm, auf den sie reagieren. Falls es sich bei der Gruppe um die freiwillige Feuerwehr handelt spricht einiges dafür. Und insofern kann man Michael Seemann verstehen, der Wissen nicht mehr an wahren Informationen festmachen will, sondern an den Queries, die sich an den täglich größer werdenden Riesenhaufen digitaler Daten stellen lassen. Aus seiner Sicht begründen nicht die Daten Wissen, sondern die Fragen, auf die Daten dem antworten, der ihr Retrival beherrscht.

 

Aber: … wenn aus dem Lautsprecher überdeutlich ein Trompetensound erschallt, dann stammt er höchstwahrscheinlich von einer Trompete. Nur was erzeugt die Alarmstimmung einer Facebook-Gruppe? Hat das wirklich irgend etwas mit der äußeren Wirklichkeit der Facebook-Gruppe zu tun? Brennt da wirklich ein Haus?

 

 

Das Apriori von Sinn

 

Es ist mit den heutigen Mitteln absolut kein Problem, anders als im Kloster und anders als in der Druckerei praktisch beliebig große Datenmengen mehr oder weniger kostenlos aufzuzeichnen, aber diese Daten unterscheiden sich inhaltlich durch nichts von sinnlosem Rauschen, es sei denn, wir wissen bereits vorab, dass sie das tun. Es gibt streng genommen nicht einmal theoretisch ein mögliches Retrival, das Sinn aus dem Variantenhaufen der vorgestellten Datenkette von Romanlänge herausfiltert und erst recht nicht aus noch viel längeren Datenketten, die entstehen, wenn man weltweit Millionen von Kameras und Sensoren aller Art permanent laufen lässt und ohne Ende Daten ausliest. Und doch. Genau so wird es gemacht, und genau so kommen nicht nur sinnlose Daten, sondern neue sinnvolle Informationen zustande. Wie kann das gehen? Es geht nur innerhalb bestehender Informationsstrukturen und Sinngeflechte. Wo eine Verbrecherkartei existiert, macht es aus Sicht der Informationswissenschaft grundsätzlich Sinn, endlose Datenmassen von Passanten zu produzieren und alle Personen permanent zu filmen, die einen öffentlichen Platz überqueren, um sie gegebenenfalls automatisch zu identifizieren. Neue Daten werden so anschlussfähig. Die aufgenommenen Daten sind dann von vorn herein kein sinnloses Rauschen. Das ist völlig unabhängig von der Frage, ob solche Aufzeichnungen ethisch gerechtfertigt oder rechtlich zulässig sind. Man muss also bei der Frage nach dem Retrival immer auch nach verborgenen Größen fragen, nicht nur nach der richtigen Query, sondern nach den Strukturen, innerhalb denen sie Sinn macht. Wenn es sich beispielsweise um eine Behörde handelt, trifft man auf weitgehend ausformulierte Regeln, welche Daten Informationen erbringen und welche nicht. Wenn es sich um eher informelle soziale Geflechte handelt wie bei heutigen Social-Media, handelt es sich um sehr viel schwerer einzuschätzende und zum Teil ziemlich überraschende Umwertungen von Daten in Informationen, die dort stattfinden. Etwas, das eben noch Rauschen war, wird wenig später Sinn, um sich vielleicht danach schnell wieder in Rauschen aufzulösen. Und erst auf Systemebene kann die Frage nach der Legitimität der Aufzeichnung aufkommen.

 

Warum sind Erkenntnisgewinne durch die statistische Befragung großer Datenmengen überhaupt möglich? Seit einigen Jahren stehen für empirische Untersuchungen Massendaten zur Verfügung, die nicht aufwendig gesammelt werden müssen, sondern einfach bei technischen Prozessen anfallen, wie Verbindungsdaten von Handys, Chroniken des individuellen Zugriffs auf Websites, die Angaben auf Facebook-Profilen oder die Bewegungsdaten von Menschen. Dass sich darin mit geeigneten Algorithmen Muster erkennen lassen, setzt voraus, dass diese Daten apriori Sinn enthalten. Dazu nochmals der Vergleich mit unserem Gedankenexperiment. Dort ließe sich auch mit der avanciertesten künstlichen Intelligenz kein Muster erkennen einfach deshalb, weil keins drinsteckt. Nichts beweist dort einem KI-Algorithmus, dem in einem solchen Fall unbegrenzt viele Texte zum Vergleich zur Verfügung stehen, dass die Zeichenkette mit den Millionen von As weniger Information enthält als der Dostojewski-Roman. Die Zeichenkette mit lauter As unterscheidet sie statistisch um nichts mehr oder weniger von allen anderen Zeichenketten als der Dostojewski-Roman.

 

Es stimmt, dass - worauf auch Seemann hinweist – Google seinen Übersetzungsdienst „Translate“ ohne genaue Kenntnis von Syntax und Grammatik so unterschiedlicher Sprachen wie Chinesisch und Arabisch entwickelt hat und statt dessen eine genügend große Anzahl von Texten, nicht hunderte, sondern Millionen von Texten statistisch verglichen hat, die zuvor in viele verschiedene Zielsprachen übersetzt worden waren. Es stimmt ebenfalls, dass sich die Ausbreitung einer Grippeepidemie in Echtzeit auf einer Landkarte mitverfolgen lässt, wenn man sich nur anschaut, wo und wann genau Suchanfragen nach bestimmten Medikamenten im Internet gestellt werden.

 

Und wieder CrisprCas9

 

Man kann Überlegungen über Variationsmöglichkeiten von Zeichenketten dieser Größe für eine ziemlich sinnlose Trockenübung halten. Aber machen wir uns klar, dass Biologen sich heute mit Technologien wie Crispr cas9 auf die Veränderung von noch sehr viel längeren Zeichenketten einlassen. Das menschliche Genom im Zellkern einer Keimzelle besteht aus über 3 Milliarden Basenpaaren, von denen jedes einen Informationsgehalt von 2 Bit hat, d.h. es gibt jeweils 4 Möglichkeiten, welches Basenpaar vorkommt. Man lässt sich also auf eine Zeichenkette mit einem Informationsgehalt von 2 3.000.000.000 Bit ein, wenn man Techniken nutzt, um daran Veränderungen, also Mutationen vorzunehmen. 

Was dafür spricht, dieses Wagnis einzugehen, ist die Tatsache, dass man das einzelne Genom nicht erst daraufhin untersuchen muss, ob es - literarisch ausgedrückt – sinnvoll ist oder nicht, denn es stammt aus lebenden Zellen, ist also wie auch immer mit Defekten behaftet, funktionsfähig und insofern sinnvoll. Heutige Biologen stehen also sicher nicht vor der Aufgabe, ein Genom aus einzelnen Basenpaaren allererst zusammensetzen zu müssen, einer Aufgabe, die bisher allein die Evolutionsgeschichte hinbekommen hat. Da evolutionsgeschichtlich unter anderem das menschliche Genom wirklich entstanden ist, müssen die Anfangsbedingungen auch so gewesen sein, dass die mit der Bildung einer bestimmten Zeichenkette von 2 3.000.000.000 Bit gestellte Aufgabe, einer Zeichenkette, die sinnvoll ist, also menschliches Leben trägt, gelöst werden konnte. Erste einfache, lebensstiftende Genome müssen sehr viel kürzer gewesen sein, und die nötigen Synthesevorgänge müssen in einer ungeheuren Anzahl parallel abgelaufen sein. Wie viele Parallelversuche in der Natur gleichzeitig und über die Generationenfolge hinweg abgelaufen sein müssen, muss größenordnungsmäßig zum Informationsgehalt des Ergebnisses passen. Das ist wahrscheinlich das verschwenderischte Trial-and-Error-Geschehen, das überhaupt denkbar ist. Aber auch er hätte nicht klappen können, wenn die Generationenfolge die Zahl der stattgefundenen Versuche bloß multipliziert und nicht potenziert hätte. Der Mathematik sei dank und den Vieren und ersten Einzellern.

 

Worauf es ankommt: Wenn mit Crispr in das Genom eingegriffen wird, dann in ein bereits fertiges Genom. Wenn der Eingriff gelingt, handelt es sich um eine sehr begrenzte Modifikation dieses fertigen Genoms. Wenn allerdings Fehler auftreten, also an irgendeiner unbeabsichtigten Stelle oder auf unbeabsichtigte Weise eingegriffen wird, stellt sich das Rätsel der 2 3.000.000.000 Bit, was darin macht Sinn und was ist Unsinn, in voller Schärfe. Man hat dann soeben einen nicht nur bis auf weiteres, sondern generell unabschätzbaren Trial-and-Error-Versuch gestartet, bei der es der Natur überlassen bleibt, was sie aus dem Ergebnis macht. Man verlässt das Areal des Sinns und befindet sich auf dem Spielfeld des Rauschens. Damit sind ethische Fragen gestellt. Niemand bestreitet das. Damit ist auch kein Wort gegen Crisp gesagt. Nur das Prinzip muss klar sein. Das Feld, auf dem Crispr und auch außerhalb der Biologie sämtliche Arbeit mit Massendaten sich abspielt ist das Apriori von Sinn und nicht dessen genuine Erstellung mitten im Rauschen. Ob mit oder ohne KI, wir sind Meister der Modifikation, nicht der Schöpfung.

 

Ganz nebenbei kann dieses Gedankenexperiment unter Philosophen als Beweis des Platonismus durch eine Art vollständiger Induktion gelten. Kein Wissen ohne vorgängige Idee, ohne (Ur)bilder, an die sich Menschen erinnern und die bereits Entitäten sind. Und das nicht nur in der klassischen analogen Welt, sondern auch im Digitalen, wenn sie auf Daten schauen, in denen Ideen stecken, auf Daten, die andernfalls nichts sind als was sie immer sind, rauschende Ketten aus Nullen und Einsen.

 

Wenn das biologische Leben selbst Sinnkriterium ist, und Leben etwas unteilbar Ganzes ist, stellt sich die Frage, ob die Möglichkeit, Muster zu entdecken, mit dem Apriori von Sinn nicht möglicherweise generell die Existenz bestimmter Ganzheiten voraussetzt, deren Zerstörung tendenziell Sinnverfall, Asignifikanz und Rauschen nach sich zieht. Was wäre in diesem Zusammenhang als Ganzheit zu betrachten? Das Leben, das Genom, Institutionen, jeder sinnvolle Text?

Muster zu erkennen ist auf den ersten Blick eine bei weitem schwächere Forderung, als Ganzheiten zu entdecken. Vielleicht eine zu schwache, wenn es um die immer lückenlosere Digitalisierung der Welt geht. Man scheut sich heute mehr als Muster zu erwarten. Schließlich leben wir nicht mehr in Zeiten Alexander von Humboldts und denken nicht mehr auf die gleiche – nämlich ästhetische - Weise 'wissenschaftlich' wie Goethe. Oft wird die Digitalisierung als eine unendliche, kostenfreie Produktion beliebiger Datenketten missverstanden. Kopieren lässt sich vieles, auch das Rauschen. Aber wo nicht bereits etwas Musterförmiges ist, das kopiert wird, und sei es eine Unregelmäßigkeit im Kopiervorgang selbst, lassen sich durch nichts und niemanden hinterher Muster erkennen, die Sinn machen. Auch nicht mit der besten Statistik und der smartesten KI. Einfach weil da keine sind.



Anmerkungen:

1 Wir variieren damit das bekannte Infinit-Monkey-Theorem.





Ihr Kommentar


Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.